С първокласни алгоритми и зонирани хора
На 1 юни 2009 година полет 447 на Air France изчезна при обикновен трансатлантически полет. Обстоятелствата бяха мистериозни, до момента в който записващото устройство на черната кутия не беше открито съвсем две години по-късно и ужасната истина стана явна: трима добре подготвени водачи бяха разрушили изцяло работещ аероплан в океана, убивайки всичките 288 души на борда, тъй като се бяха объркали от това, което им споделяха автоматизираните системи на техния Airbus 330.
Наскоро открих, че се връщам към последните моменти от полет 447, блестящо разказани в публикации в Popular Mechanics и Vanity Fair. Не мога да се отърся от възприятието, че случаят има нещо значимо, което да ни научи както за рисковете, по този начин и за големите изгоди от изкуствения разсъдък.
Най-новият генеративен AI може да основава лирика и изкуство, до момента в който AI системите за взимане на решения имат силата да намират потребни модели в объркваща неразбория от данни. Тези нови технологии нямат явни прародители, само че имат паралели. Не на вятъра пакетът от принадлежности за изкуствен интелект на Microsoft към този момент е наименуван „ Copilot “. „ Автопилот “ може да е по-точен, само че по този начин или другояче, това е прилика, която си коства да се изследва.
Обратно към полет 447. A330 е прочут с това, че е равномерен и елементарен за ръководство, с помощта на усъвършенствана система за автоматизация на полета наречено помощно ръководство по кабел. Традиционно водачът има пряк надзор върху задкрилките на самолета, само че помощната система за ръководство на кабела трансформира внезапните придвижвания на водача в плавни указания. Това затруднява злополуката на A330, а самолетът имаше превъзходни индикатори за сигурност преди нещастието с Air France. Но парадоксално е, че има риск да се построи аероплан, който защищава водачите толкоз старателно от неточности. Това значи, че когато възникне предизвикателство, водачите ще имат доста малко опит, от който да се възползват, до момента в който се пробват да се оправят с това предизвикателство.
В случая на полет 447 предизвикването беше стихия, която блокира въздушната скорост принадлежности с лед. Системата вярно заключи, че лети с ненадеждни данни и, както е програмирано, съобщи цялостния надзор на водача. Уви, младият водач не беше привикнал да лети в разводнен, турбулентен въздух без наблюдението на компютъра и стартира да прави неточности. Докато самолетът се клатеше обезпокоително, той се изкачи от инстинкт и спря самолета - нещо, което би било невероятно, в случай че помощното ръководство на кабела работеше обикновено. Другите водачи станаха толкоз комплицирани и недоверчиви към инструментите на самолета, че не съумяха да диагностицират елементарно отстранимия проблем, до момента в който не стана прекомерно късно.
Този проблем от време на време се назовава „ парадоксът на автоматизацията “. Една автоматизирана система може да помогне на хората или даже да размени човешката преценка. Но това значи, че хората могат да не помнят уменията си или просто да спрат да обръщат внимание. Когато компютърът се нуждае от човешка интервенция, хората към този момент не могат да се оправят с работата. По-добрите автоматизирани системи значат, че тези случаи стават редки и по-странни, а хората даже по-малко евентуално да се оправят с тях.
Има доста анекдотични доказателства, че това се случва с най-новите AI системи. Помислете за нещастните юристи, които се обърнаха към ChatGPT за помощ при формулирането на случай, единствено с цел да открият, че има изфабрикувани цитати. Те бяха санкционирани с 5000 $ и им беше подредено да напишат писма до няколко съдии, с цел да дадат пояснение.
Въпросът не е, че ChatGPT е ненужен, както и помощното fly-by-wire е неефикасно. И двете са софтуерни чудеса. Но те имат граници и в случай че техните човешки консуматори не схващат тези граници, може да настъпи злополука.
Доказателство за този риск идва от Фабрицио Дел'Акуа от Harvard Business School, който неотдавна организира опит, в който набиращите личен състав бяха подкрепени от логаритми, някои отлични, други по-малко, в напъните им да решат кои претенденти да поканят на изявление. (Това не е генеративен AI, само че е главно приложение на AI в действителния свят.)
Dell'Acqua откри, контраинтуитивно, че посредствените логаритми, които са с към 75 % акуратност, дават по-добри резултати от положителни, които имаха акуратност от към 85 %. Простата причина е, че когато на експертите по асортимент на личен състав бяха препоръчани насоки от логаритъм, за който се знае, че е променлив, те останаха фокусирани и прибавиха личната си преценка и опит. Когато на експертите по асортимент бяха препоръчани насоки от логаритъм, за който знаеха, че е отличен, те се отпуснаха и оставиха компютърът да взема решенията.
Може би са икономисали толкоз доста време, че грешките са си коствали. Но сигурно имаше неточности. Алгоритъм от невисок клас и включен човек вземат по-добри решения дружно, в сравнение с логаритъм от най-голям клас с човек със зонирана зона. И когато логаритъмът е първокачествен, зониран човек се оказва това, което получавате.
The Big ReadGenerative AI: по какъв начин ще ви се отрази новата епоха на машинно образование?
Чух за Dell' Изследванията на Acqua от Итън Молик, създател на идния Co-Intelligence. Но когато загатнах на Молик концепцията, че автопилотът е поучителна прилика с генеративния ИИ, той ме предизвести да не диря паралели, които са „ тесни и ненапълно утешителни “. Това е почтено. Няма нито един софтуерен казус, който да дава отговор на бързия прогрес и объркващия обсег на генеративните AI системи. Но вместо да отхвърляме всички сходни прецеденти, коства си да потърсим разнообразни аналогии, които осветляват разнообразни елементи от това, което може да следва. Имам поради още две за бъдещи проучвания.
И има един урок от автопилота, за който съм уверен, че се отнася за генеративния ИИ: вместо да мисля за машината като сурогат на индивида, най-интересните въпроси концентрирайте се върху от време на време изпълненото с компликации съдействие сред двамата. Дори и най-хубавият автопилот от време на време се нуждае от човешка преценка. Ще бъдем ли подготвени?
Новите генеративни AI системи постоянно са объркващи. Но имаме лукса на времето да опитвам с тях; повече от бедния Пиер-Седрик Бонин, младият водач, който летеше с съвършено работещ аероплан в Атлантическия океан. Последните му думи: „ Но какво се случва? “
Новата книга за деца на Тим Харфорд, „ The Truth Detective “ (Wren & Rook), към този момент е налична
Следвайте, с цел да научите първи за най-новите ни истории